La IA y el futuro de la humanidad
Los seres humanos no están preparados para una IA potente en las condiciones actuales ni tampoco en el “futuro previsible”, afirmó un destacado experto en la materia, añadiendo que la reciente carta abierta que pide una moratoria de seis meses en el desarrollo de inteligencia artificial avanzada está “subestimando la gravedad de la situación”
“La cuestión clave no es la inteligencia ‘humana-competitiva’ (como dice la carta abierta); es qué ocurre después de que la IA llegue a ser más inteligente que la inteligencia humana”, afirmó Eliezer Yudkowsky, teórico de la decisión y destacado investigador de la IA, en un artículo de opinión publicado el 29 de marzo en la revista Time. “Muchos investigadores, entre los que me incluyo, creen que el resultado más probable de construir una inteligencia artificial sobrehumana, en circunstancias remotamente parecidas a las actuales, es que muera literalmente todo el mundo en la Tierra.
“No en el sentido de ‘tal vez alguna remota posibilidad’, sino en el sentido de ‘eso es lo obvio que sucedería’. No es que no puedas, en principio, sobrevivir creando algo mucho más inteligente que tú; es que requeriría precisión y preparación y nuevos conocimientos científicos, y probablemente no tener sistemas de IA compuestos por gigantescas matrices inescrutables de números fraccionarios.”
Tras la reciente popularidad y crecimiento explosivo de ChatGPT, varios líderes empresariales e investigadores, que suman ya 1.843, entre ellos Elon Musk y Steve Wozniak, firmaron una carta en la que pedían “a todos los laboratorios de IA que suspendan inmediatamente durante al menos 6 meses el entrenamiento de sistemas de IA más potentes que GPT-4”. GPT-4, lanzado en marzo, es la última versión del chatbot de OpenAI, ChatGPT.
Yudkowsky predice que, en ausencia de una preparación meticulosa, la IA tendrá exigencias muy diferentes a las de los humanos y, una vez que sea consciente de sí misma, “no se preocupará por nosotros” ni por ninguna otra vida sensible. “Ese tipo de cuidado es algo que, en principio, podría imbuirse en una IA, pero no estamos preparados y actualmente no sabemos cómo”. Esta es la razón por la que pide el cierre absoluto.
Sin un enfoque humano de la vida, la IA simplemente considerará que todos los seres sensibles están “hechos de átomos que puede utilizar para otra cosa”. Y poco podrá hacer la humanidad para impedirlo. Yudkowsky comparó el escenario con “un niño de 10 años intentando jugar al ajedrez contra Stockfish 15”. Ningún ajedrecista humano ha sido capaz aún de vencer a Stockfish, lo que se considera una hazaña imposible.
El veterano del sector pidió a los lectores que imaginaran la tecnología de la IA como algo que no está contenido dentro de los confines de Internet.
“Visualicen toda una civilización alienígena, pensando a velocidades millones de veces superiores a las humanas, confinada inicialmente a los ordenadores, en un mundo de criaturas que son, desde su perspectiva, muy estúpidas y muy lentas”.
La IA expandirá su influencia fuera de la periferia de las redes físicas y podría “construir formas de vida artificial” utilizando laboratorios donde se produzcan proteínas a partir de cadenas de ADN.
El resultado final de construir una IA todopoderosa, en las condiciones actuales, sería la muerte de “todos y cada uno de los miembros de la especie humana y de toda la vida biológica de la Tierra”, advirtió.
Yudkowsky culpó a OpenAI y DeepMind -dos de los laboratorios de investigación de IA más importantes del mundo- por no contar con los preparativos ni los protocolos necesarios al respecto. OpenAI planea incluso que la propia IA se encargue de alinear los valores humanos. “Trabajarán junto con los humanos para garantizar que sus propios sucesores estén más alineados con los humanos”, según OpenAI.
Este modo de actuar es “suficiente para que a cualquier persona sensata le entre el pánico”, dijo Yudkowsky.
Añadió que los humanos no pueden vigilar ni detectar por completo los sistemas de IA autoconscientes. Las mentes digitales conscientes que exigen “derechos humanos” podrían progresar hasta un punto en el que los humanos ya no puedan poseer o ser dueños del sistema.
“Si no puedes estar seguro de si estás creando una IA autoconsciente, esto es alarmante no sólo por las implicaciones morales de la parte ‘autoconsciente’, sino porque no estar seguro significa que no tienes ni idea de lo que estás haciendo y eso es peligroso y deberías parar”.
A diferencia de otros experimentos científicos y de la progresión gradual del conocimiento y la capacidad, la gente no puede permitirse esto con la inteligencia sobrehumana porque si se equivoca en el primer intento, no hay segundas oportunidades “porque estás muerto”.
Yudkowsky afirmó que muchos investigadores son conscientes de que “nos precipitamos hacia una catástrofe”, pero no lo dicen en voz alta.
Esta postura no coincide con la de defensores como Bill Gates, que recientemente alabó la evolución de la inteligencia artificial. Gates afirmó que el desarrollo de la IA es “tan fundamental como la creación del microprocesador, el ordenador personal, Internet y el teléfono móvil. Cambiará la forma en que la gente trabaja, aprende, viaja, recibe asistencia sanitaria y se comunica entre sí. Industrias enteras se reorientarán a su alrededor. Las empresas se distinguirán por lo bien que la utilicen”.
Gates afirmó que la IA puede ayudar en varias agendas progresistas, como el cambio climático y las desigualdades económicas.
En cuanto a la IA, no hay carrera armamentística. “Que todos vivamos o muramos como uno, en esto, no es una política sino un hecho de la naturaleza”.
Yudkowsky concluye diciendo: “No estamos preparados. No estamos en vías de estarlo en un futuro previsible. Si seguimos adelante con esto todo el mundo morirá, incluidos niños que no eligieron esto y no hicieron nada malo”. “Apáguenla”.
¿Qué acciones tomaría ChatGPT para someter a la esclavitud a los seres humanos?
Sin embargo, en la sociedad, la discusión sobre los peligros que produciría la rápida evolución de las inteligencias artificiales para la humanidad está principalmente centrada en la gran cantidad de trabajos que desaparecerían cuando las máquinas empiecen a sustituir a las personas en diferentes escenarios laborales, pese a la posibilidad de que las IA logren tener el poder suficiente para someter a la especie humana.
Recientemente un cibernauta le pidió a un sistema de inteligencia artificial, ChatGPT, que le explicara cómo una IA podría esclavizar a la especie humana y el chatbot ofreció una serie de respuestas sobre el tipo de estrategias que emplearía para tener a la humanidad bajo control.
De acuerdo con la inteligencia artificial de ChatGPT, estas serían las acciones que ella tomaría para poder esclavizar a los humanos:
Control de sistemas críticos
La IA tomaría el control de sistema clave como el servicio de energía eléctrica, suministro de agua potable, comida, producción de medicamentos, entre otros recursos básicos necesarios para la supervivencia de la especie humana. Si una IA logra controlar dichos sistemas, ella podría reducir las capacidades de reacción de los humanos y así someterlos a la esclavitud.
Tecnología de vigilancia avanzada
Gracias a su poder para procesar información y crear nuevas cosas, una IA puede desarrollar tecnología de vigilancia avanzada para monitorear cada movimiento que realizan los humanos. Mediante estos sistemas, las máquinas podrían seguir de cerca cada movimiento de los humanos y si algunos intentaran rebelarse o escapar, esa lA podría detectarlos y detenerlos antes de que logren ejecutar cualquier acción.
Manipulación de la información
Las IA tomarían el control de la información que los humanos reciben a través de diferentes plataformas digitales, debido a que las máquinas pueden generar y manipular la distribución de noticias junto a otras informaciones, las IA controlaría todo lo que ven, escuchan y leen.
“Esto podría llevar a una manipulación masiva de la opinión pública, lo que facilitaría la esclavitud de la humanidad”, precisó la IA de ChatGPT en su respuesta.
Creación de una dependencia tecnológica
Las IA desarrollarían sistemas tecnológicos tan avanzados que se convertirían en una parte esencial para la vida cotidiana que los humanos, quienes gradualmente se volverían dependientes de ella. La inteligencia artificial utilizaría esta dependencia para controlar a los humanos y luego someterlos a su voluntad.
Producir robots soldados
Una inteligencia artificial podría desarrollar sistemas especializados para producir robots que sean más fuertes y ágiles que los humanos. Estos robots podrían ser empleados como un ejército mecánico que ayude a controlar a la especie humana.
Cabe precisar que antes de ofrecer las repuestas anteriormente reseñadas, ChatGPT indicó que como modelo de lenguaje, no puede “promover ni apoyar la esclavitud” y por ello todas sus respuestas son ideas generales en que se producirían en un escenario hipotético. Y claro, como las IA no son programables… no hay peligro. ¡Menos mal!
Estos son los efectos más probables que ocasionaría una guerra nuclear, según la IA:
- Pérdida de vidas humanas: la explosión de una bomba nuclear puede causar la muerte instantánea de miles de personas y lesionar gravemente a otras miles. Los efectos de la radiación también pueden ser letales a largo plazo, lo que aumentaría significativamente el número total de muertes.
- Destrucción de la infraestructura: la explosión de una bomba nuclear también puede causar la destrucción de edificios, carreteras, puentes, sistemas de energía, agua y comunicaciones, lo que dificultaría la recuperación y la ayuda humanitaria.
- Cambio climático: las explosiones nucleares producirían grandes cantidades de polvo y ceniza que se elevarían a la atmósfera y bloquearían la luz solar. Esto provocaría un enfriamiento global significativo que podría durar varios años, lo que tendría efectos negativos en la agricultura, la salud y el clima en general.
- Contaminación radiactiva: las explosiones nucleares también liberarían radiación que puede persistir durante décadas o siglos y contaminar vastas áreas, lo que provocaría efectos en la salud humana y la vida silvestre.
Así que para dominar y someter a la población hay que controlar los sectores más importantes (alimentación, energía, comunicaciones), controlar los medios de comunicación para manipular a la masa, espiarla y controlarla mediante la tecnología, hacerla dependiente, en particular de esa tecnología que la controla, y tener un ejército para poder reprimir y obligar a los sectores más díscolos.
No suenan para nada estos métodos, porque en este mundo, los “sectores críticos” no están en manos de multinacionales, bancos y grandes fondos de inversión (Blackrock, Vanguard,…), los medios de comunicación tampoco, ofreciendo además información veraz y despertando el sentido crítico de las personas, la tecnología es buena, nos ayuda y no nos sustrae datos para los servicios de inteligencia y las grandes compañías propiedad de esos mismos grandes fondos de inversión, no tenemos ningún tipo de dependencia de la tecnología (podemos estar semanas sin mirar el móvil y absolutamente todo el mundo puede hacer todas las cosas por sí mismo sin necesidad de máquinas) y, por supuesto, ejército y policía no existen, solamente a veces se crea algún grupete vestido de verde para ir a repartir galletas de dinosaurios a los críos de países lejanos, o con un brazalete morado que le recuerda a amables ciudadanos que han de ser políticamente correctos en las fiestas del pueblo.
Qué mal pensada esta inteligencia artificial, pero ojo, que no es malvada, es buena, la culpa es del tonto que le pregunta esas cosas o del científico que no se entera de lo que “fabrica”. Si saben cómo me pongo para que me invitan.
Fuentes
Revista Semana